Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Für einen unserer Großkunden suchen wir derzeit eine Unterstützung, die die nachfolgenden Anforderungen erfüllt: Ihre Aufgaben: Implementierung von agentischen Analysesystemen auf Basis strukturierter Daten insbesondere SQL Datenbanken unter Verwendung von LangChain oder LangGraph in Python Analyse, Umstrukturierung und Beschreibung bestehender Datenlandschaften zur optimalen Nutzung in AI Agentensystemen Sicherstellung der Ergebnisqualität von KI Anwendungen beispielsweise durch Evaluationsmethoden wie LLM as a Judge Entwicklung, Containerisierung und Deployment von Anwendungen in einer bestehenden OpenShift Umgebung Erstellung technischer Dokumentationen der entwickelten Systeme und Lösungen Zusammenarbeit mit Data Science, MLOps und Fachbereichen zur Umsetzung produktiver KI Anwendungen Ihr Profil: Umfangreiche Projekterfahrungen (mindestens 3 Projekte) im Bereich KI-Agenten unter Verwendung von LangChain/LangGraph im operativen Einsatz mit, die im Rahmen pro Referenzprojekt nachgewiesen werden können.
Data Science von Vorteil Analytische, kreative & lösungsorientierte Arbeitsweise sowie Hands-on-Mentalität Teamplayer mit Freude an der interdisziplinären Zusammenarbeit, idealerweise mit Vorerfahrungen im agilen Umfeld Fließend in Deutsch & Englisch Weitere Details zur Stelle Gehalt: 2.117 €/Monat Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Als Senior Professional Data-Engineer wirst du in unserer Tribe-Organisation stetig gefordert und gefördert, hast die Möglichkeit deine eigenen Ideen mit einzubringen und dich fachlich exorbitant schnell zu entwickeln. In Zusammenarbeit mit unseren Bestands- und Neukunden leben wir eine Community of Practice und pflegen intern eine kollegiale Firmenkultur in einem dynamischen Team.
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript)Durchführung von technischen Konzeptionen, Analysen und Design neuer FeaturesEntwicklung von Spring-Webapplikationen in der Azure CloudEntwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und ModellbereitstellungenGemeinsame Verantwortung für die Applikation ChatGPT-SkillInitiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner WebapplikationenSehr gute Kenntnisse in Java, Spring Boot, Angular und TypescriptHochschulabschluss in Informatik oder gleichwertige BerufserfahrungGutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und BereitstellungsanforderungenFähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution ArchitectsBereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulenPython-Erfahrung von VorteilSprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps EngineersMitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-SkillsTätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Ihre Arbeit bildet eine Brücke zwischen akademischer Exzellenz und anwendungsorientierter Relevanz.Hochschulabschluss (Master) in Wirtschaft, Sozialwissenschaften, Psychologie oder verwandten Disziplinen Erfolgreich abgeschlossene Promotion in einem der Wissenschaftsbereiche Mehrjährige aktive Forschungserfahrung und aktuelle Publikationsliste im Bereich, Marketing Entscheidungen und Verbraucherverhalten Erfahrung im eigenständigen Forschungsmanagement und der Zusammenarbeit mit internationalen Forschungseinrichtungen und externen Dienstleistern English language required minimum: C1 and German language: C1 Level Hohe Teamfähigkeit sowie Interesse an interdisziplinärer Zusammenarbeit in ForschungsprojektenEine unbefristete Festanstellung mit attraktivem Vergütungspaket Langfristig abgesicherte Forschungsmittel Publikationen in Top Journals einzureichen Umfassende Unterstützung für eine akademische Karriere Flexible Arbeitszeiten und die Möglichkeit zur mobilen Arbeit, maximal 2 Tage pro Woche Die Möglichkeit, eigene Forschungsschwerpunkte zu setzen und international anerkannte Kooperationen aufzubauenAls Personalberater sind wir exklusiv mit der Betreuung dieses Stellenangebotes beauftragt.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript) Durchführung von technischen Konzeptionen, Analysen und Design neuer Features Entwicklung von Spring-Webapplikationen in der Azure Cloud Entwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und Modellbereitstellungen Gemeinsame Verantwortung für die Applikation ChatGPT-Skill Initiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner Webapplikationen Sehr gute Kenntnisse in Java, Spring Boot, Angular und Typescript Hochschulabschluss in Informatik oder gleichwertige Berufserfahrung Gutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und Bereitstellungsanforderungen Fähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution Architects Bereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulen Python-Erfahrung von Vorteil Sprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps Engineers Mitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-Skills Tätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
MID – Driving Continuous TransformationNeben Deiner Tätigkeit als Consultant bist Du Teil eines agil-organisierten Teams, dass sich auf die Produktentwicklung im Bereich Data Science fokussiert und mittels Daten komplexe Entscheidungen zielgerichtet und systematisch-automatisiert trifft.Dabei hältst Du aktuelle technische und branchenbezogene Marktentwicklungen zu den Themen Advanced Analytics, Machine Learning sowie Künstliche Intelligenz stets im Blick und evaluierst, wie diese thematisch in unsere Kundenprojekte und Produktlandschaft passen.Außerdem übernimmst Du im Kontext von Kundenprojekten verschiedene Aufgaben wie die Beschaffung und Aufbereitung großer Datensätze, die Analyse von Daten mittels statistischer Methoden und Machine Learning sowie die technische Entwicklung von Anwendungen.In Zusammenarbeit mit anderen Abteilungen unterstützt Du uns mit Deinem technischen Fachwissen innerhalb des Schwerpunktes Data Science bei der Projektakquise.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Freuen Sie sich auf die Arbeit mit modernsten AI-Plattformen und Frameworks (TensorFlow, PyTorch, LangChain), die Entwicklung intelligenter Anwendungen auf der hauseigenen Plattform AI.nstein, enge Zusammenarbeit mit Data Scientists und KI-Architekten in interdisziplinären Teams und die einzigartige Chance, KI-Innovationen in einem der technologisch anspruchsvollsten Industriebereiche voranzutreiben dort, wo Tradition auf Innovation trifft.
Als Knowledge Engineer in unserer Tribe-Organisation wirst du stetig gefordert und gefördert, hast die Möglichkeit deine eigenen Ideen mit einzubringen und dich fachlich exorbitant schnell zu entwickeln. In Zusammenarbeit mit unseren starken Partnern leben wir eine Community of Practice und pflegen intern eine familiäre, kollegiale Firmenkultur in einem dynamischen Team.
Als Senior Professional Data-Architect wirst du in unserer Tribe-Organisation stetig gefordert und gefördert, hast die Möglichkeit deine eigenen Ideen mit einzubringen und dich fachlich exorbitant schnell zu entwickeln. In Zusammenarbeit mit unseren Bestands- und Neukunden leben wir eine Community of Practice und pflegen intern eine kollegiale Firmenkultur in einem dynamischen Team.
SDS‑PAGE, Western Blot, CE‑SDS, SEC‑HPLC, IEX‑HPLC, RP‑HPLC, UV/Vis‑Spektroskopie sowie Aggregat‑ und Partikelanalysen Design of Experiments (DoE): Planung und Auswertung statistisch gestützter Versuchsreihen zur Prozessoptimierung Interpretation analytischer Daten und Ableitung von Prozessoptimierungen Strukturierte Dokumentation, Auswertung und Interpretation großer Datensätze Erstellung wissenschaftlicher Berichte, Präsentationen und technischer Dokumente für interne und externe Zwecke Vorbereitung und Begleitung des Transfers vom Labor‑ in den Pilot‑ oder Produktionsmaßstab Enge Zusammenarbeit mit Upstream Development, Analytics, Quality und Manufacturing Mitwirkung bei der Einführung neuer Technologien und Automatisierungslösungen; Etablierung neuer Aufreinigungs‑ oder Analyseverfahren sowie Bewertung neuer Technologien Mitwirkung bei der Erstellung und Aktualisierung von Standardarbeitsanweisungen (SOPs) Präsentation von Versuchsergebnissen und Prozessdaten in Kundenterminen sowie fachliche Diskussion der Resultate im Rahmen von Projektmeetings Was Du mitbringst Ein abgeschlossenes Studium der Biotechnologie, Biochemie, Bioverfahrenstechnik oder einer verwandten Fachrichtung (Bachelor, Master oder Promotion) Praktische Laborerfahrung, idealerweise im Bereich Proteinaufreinigung oder biotechnologischer Prozessentwicklung (durch Praktika, Abschlussarbeiten oder bereits im Berufsalltag) Erfahrung mit Marktproduktion ist ein Plus Grundkenntnisse in chromatographischen und filtrationsbasierten Verfahren sowie Interesse Erste Erfahrungen mit analytischen Methoden wie SDS‑PAGE, Western Blot oder HPLC‑Verfahren oder die Bereitschaft, Dich hier einzuarbeiten Freude an experimenteller Arbeit, sorgfältiger Dokumentation und einem strukturierten, analytischen Vorgehen Interesse an datenbasierter Prozessoptimierung und statistischen Methoden wie DoE Sicherer Umgang mit MS Office, insbesondere für die Auswertung von Daten und die Erstellung von Berichten und Präsentationen Teamorientierte Arbeitsweise und klare Kommunikation im Austausch mit verschiedenen Fachbereichen Bereitschaft, Ergebnisse verständlich aufzubereiten und auch in Kundengesprächen zu präsentieren Sehr gute Deutsch‑ und Englischkenntnisse in Wort und Schrift Offenheit, Dich fachlich weiterzuentwickeln und neue Technologien kennenzulernen Was Dich erwartet ProSphere.
Testmethodenentwicklung und -Validierung, Erstellung von Prüfvorschriften, Methodentransfer in andere Abteilungen) Auswertung sowie GMP -konforme Dokumentation der Aktivitäten inklusive Prüfung der Daten und Dokumente (inkl. statistischer Auswertung, Visualisierung der Ergebnisse, Berichterstellung in englischer Sprache in elektronischen Systemen) Teilnahme an lokalen / globalen Meetings und Telekonferenzen (englisch und deutsch) Enge Kommunikation und Zusammenarbeit mit anderen Abteilungen in der Forschung und Entwicklung Unterstützung bei Zusammenarbeit mit externen Dienstleistern Probenanforderung, -versand und -lagerung inklusive erforderlicher Dokumentationen Unterstützung bei projektspezifischer Infrastrukturbereitstellung und Qualifikationsarbeiten Ausbildung als BTA/MTA/CTA oder Biologie-/Chemielaborant/in mit Berufserfahrung oder Studium der Ingenieurswissenschaften oder vergleichbare Ausbildung im Bereich Physik, Pharmatechnik, Packmitteltechnologie, Materialwissenschaften oder ähnliches Gutes technisches Verständnis für physikalisches und funktionales Testen, Erfahrungen in diesem Bereich, z.B.
Testmethodenentwicklung und -Validierung, Erstellung von Prüfvorschriften, Methodentransfer in andere Abteilungen) Auswertung sowie GMP -konforme Dokumentation der Aktivitäten inklusive Prüfung der Daten und Dokumente (inkl. statistischer Auswertung, Visualisierung der Ergebnisse, Berichterstellung in englischer Sprache in elektronischen Systemen)Teilnahme an lokalen / globalen Meetings und Telekonferenzen (englisch und deutsch)Enge Kommunikation und Zusammenarbeit mit anderen Abteilungen in der Forschung und EntwicklungUnterstützung bei Zusammenarbeit mit externen DienstleisternProbenanforderung, -versand und -lagerung inklusive erforderlicher DokumentationenUnterstützung bei projektspezifischer Infrastrukturbereitstellung und Qualifikationsarbeiten Ausbildung als BTA/MTA/CTA oder Biologie-/Chemielaborant/in mit Berufserfahrung oder Studium der Ingenieurswissenschaften oder vergleichbare Ausbildung im Bereich Physik, Pharmatechnik, Packmitteltechnologie, Materialwissenschaften oder ähnlichesGutes technisches Verständnis für physikalisches und funktionales Testen, Erfahrungen in diesem Bereich, z.B.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Deine Ansprechpartnerin Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung - Svjetlana Grajic, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Deine Ansprechpartnerin Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung - Svjetlana Grajic, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung: - Annette Lauterbach, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung: - Annette Lauterbach, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Dein Ansprechpartner - Nadine Kolling, Senior Expert People Management #Telefon 069566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Dein Ansprechpartner - Nadine Kolling, Senior Expert People Management #Telefon 069566083050 #E-Mail bewerbung@infomotion.de
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Aufgeschlossenheit. Menschlichkeit. Wir bilden eine Gemeinschaft, die auf Zusammenarbeit, Respekt und Unterstützung basiert. Deshalb unterstützen wir Team-Events, Teambuilding-Aktivitäten, T.E.A.M.-Geist-Botschafter/innen in jeder Abteilung und flache Hierarchien.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Das blüht Ihnen bei uns – Ihre Aufgaben als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Pflege und Aktualisierung von Stammdaten Prüfung der Datenqualität Unterstützung bei der Durchführung von Datenimporten und -exporten Dokumentation von allen durchgeführten Änderungen Identifikation von Datenfehlern und Zusammenarbeit mit anderen Abteilungen zur Fehlerbehebung Ansprechpartnerfunktion bei Fragen zur Stammdatenpflege sowie Führen von Schulungen zu relevanten Systemen Erstellung von Reports und Analysen sowie Ableitung von Verbesserungsvorschlägen Der Nährboden Ihrer Arbeit – Das bieten wir: Flexibilität & Work-Life-Balance erleben: Sie haben bei uns die Möglichkeit ortsunabhängig aus dem Mobile Office/Remote mit definierten Präsenztagen in Rain zu arbeiten.
Ihre Aufgaben Vor- und Nachbereitung von Terminen und Meetings inkl. der ProtokollführungTerminplanung und -koordinationMitarbeit in ProjektenDokumentation von ProzessenSchnittstellenfunktion zwischen den Abteilungen Ihr Profil Erfolgreich abgeschlossene kaufmännische Berufsausbildung Berufserfahrung im Projektmanagement bzw. in der ProjektassistenzIdealerweise Berufserfahrung in einem IndustrieunternehmenGute Grundkenntnisse in EnglischDer sichere Umgang mit den gängigen MS-Office-Anwendungen wird vorausgesetztEigenständige und zuverlässige ArbeitsweiseStets freundliches und kommunikatives Auftreten Das wird Ihnen geboten Einen modernen Arbeitsplatz und ein spannendes Aufgabengebiet in einer zukunftssicheren Branche Interkulturelle Zusammenarbeit und kurze Kommunikationswege - auch über Ländergrenzen hinweg Eine offene Unternehmenskultur und Vertrauensarbeitszeit für ein freies und selbstbestimmtes Zeitmanagement Gezielte Mitarbeiterförderung: Fachliche Weiterbildung und Entwicklung der persönlichen Fähigkeiten in unserer hauseigenen Academy Vielfältige Corporate Benefits in Bezug auf Gesundheit, Sport und Mitarbeiterevent PS Direkt GmbH & Co.
Ihre Aufgaben Vor- und Nachbereitung von Terminen und Meetings inkl. der ProtokollführungTerminplanung und -koordinationMitarbeit in ProjektenDokumentation von ProzessenSchnittstellenfunktion zwischen den Abteilungen Ihr Profil Erfolgreich abgeschlossene kaufmännische Berufsausbildung Berufserfahrung im Projektmanagement bzw. in der ProjektassistenzIdealerweise Berufserfahrung in einem IndustrieunternehmenGute Grundkenntnisse in EnglischDer sichere Umgang mit den gängigen MS-Office-Anwendungen wird vorausgesetztEigenständige und zuverlässige ArbeitsweiseStets freundliches und kommunikatives Auftreten Das wird Ihnen geboten Einen modernen Arbeitsplatz und ein spannendes Aufgabengebiet in einer zukunftssicheren Branche Interkulturelle Zusammenarbeit und kurze Kommunikationswege - auch über Ländergrenzen hinweg Eine offene Unternehmenskultur und Vertrauensarbeitszeit für ein freies und selbstbestimmtes Zeitmanagement Gezielte Mitarbeiterförderung: Fachliche Weiterbildung und Entwicklung der persönlichen Fähigkeiten in unserer hauseigenen Academy Vielfältige Corporate Benefits in Bezug auf Gesundheit, Sport und Mitarbeiterevent PS Direkt GmbH & Co.
Du führst eigenständig Anforderungsanalysen durch, implementierst robuste ETL/ELT‑Prozesse sowie wiederverwendbare Datenpipelines und stellst die Datenqualität sicher.Du leistest einen maßgeblichen Beitrag zur kontinuierlichen Verbesserung der Datenqualität und Automatisierung der FUTRUE-Gruppe.Du bist verantwortlich für die Verprobung und Validierung von Ergebnissen in Zusammenarbeit mit den Fachbereichen.Du erstellst Unterlagen für das Top-Management und präsentierst Deine Ergebnisse in Management-Meetings.Du hast Dein Studium im Bereich der Mathematik, Informatik, Betriebswirtschaftslehre oder einem ähnlichen Studiengang abgeschlossen und verfügst über Basiswissen im Bereich Data & Business Intelligence.Du überzeugst durch eine ausgeprägte analytische Fähigkeiten und hast eine hohe Zahlenaffinität.Du beherrschst (T‑)SQL auf fortgeschrittenem Niveau (Komplexe Joins, Window‑Funktionen) und nutzt Python (z.
Mit #thepowerofpeople schaffen wir einen sicheren Raum für eine positive, nachhaltige und internationale Zusammenarbeit.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Darüber hinaus berätst Du interne Stakeholder zu datengetriebenen Entscheidungsprozessen und zur Definition relevanter KPIs. Datenqualität und Zusammenarbeit Du stellst die Datenintegrität sicher und trägst kontinuierlich zur Verbesserung der Reporting-Landschaft bei. In enger Zusammenarbeit mit Schnittstellen außerhalb der SCM-Abteilung steuerst Du außerdem externe Dienstleister und förderst so eine reibungslose Zusammenarbeit.
.------ Erfolgreich abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation Mehrjährige Berufserfahrung im Data-Engineering-Umfeld, idealerweise 8+ Jahre Sehr gute Python-Kenntnisse sowie fundierte Erfahrung mit ETL-Prozessen Gute Java-Kenntnisse (für die Integration in Java-basierte Services); React-Grundverständnis ist von Vorteil Interesse an KI-/AI-Themen oder idealerweise erste praktische Erfahrung in der Zusammenarbeit mit Data-Science/ML-Teams Kenntnisse in ETL-Prozessen und Datenverarbeitung sind wünschenswert (z. B. Datenflüsse über mehrere Services, Batch-/Streaming-Patterns) Sehr gute Deutschkenntnisse (idealerweise C2/Muttersprache), Englischkenntnisse sind von VorteilLust auf deine nächste Herausforderung?
Du arbeitest routiniert mit Daten, SQL und Python und beherrschst idealerweise Methoden zur Datengenerierung, -aufbereitung und -analyse mit sehr guten Kenntnissen im Finance-Bereich. In enger Zusammenarbeit mit den Fachbereichen identifizierst Du neue Anwendungsfälle im Zusammenhang mit Datenqualität in den jeweiligen Anwendungen, koordinierst Maßnahmen zu dessen Optimierung und erstellst ein entsprechendes Reporting.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Dein Ansprechpartner - Nadine Kolling, Senior Expert People Management #Telefon 069566083050 #E-Mail bewerbung@infomotion.de
Deine Arbeit landet nicht in der Schublade – sie wird auf Gruppenebene genutzt. Was dich erwartetDirekte Zusammenarbeit mit Senior ControllernVerantwortung für echte, managementrelevante KPIsInternationales ArbeitsumfeldHoher Lern- und Praxisbezug im Bereich Controlling & BIFlexible Arbeitszeiten und Möglichkeit zu hybridem Arbeiten Auf diese Stelle bewerben Über uns Bergman Clinics ist ein führender Anbieter von fachärztlichen Spezialistenzentren in Europa, mit Hauptsitz in den Niederlanden.
Betrieb und Weiterentwicklung einer Data Center Infrastruktur Umgang mit virtuellen Maschinen (VMware / Hyper-V) Tätigkeiten im M365-Umfeld sowie in der klassischen Infrastruktur Unterstützung bei Themen rund um Firewall-Regeln und Netzwerk-Grundlagen Enge Zusammenarbeit mit dem Betriebsteam inkl. Know-how-Transfer 3 Tage on Site in Ranshofen bei Braunau sind notwendig Erfahrung im Data Center Betrieb Fundierte VM-Erfahrung Gute Azure-Kenntnisse Praxiswissen zu M365 und klassischer Infrastruktur Langfristiges Projekt mit Aussicht auf Projektverlängerung Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Herausfordernde Projektinhalte Ihr Kontakt Referenznummer 864750/1 Kontakt aufnehmen Telefon:+43 1 5353443 0 E-Mail: positionen@hays.at Anstellungsart Freiberuflich für ein Projekt
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Betrieb und Weiterentwicklung einer Data Center InfrastrukturUmgang mit virtuellen Maschinen (VMware / Hyper-V)Tätigkeiten im M365-Umfeld sowie in der klassischen InfrastrukturUnterstützung bei Themen rund um Firewall-Regeln und Netzwerk-GrundlagenEnge Zusammenarbeit mit dem Betriebsteam inkl. Know-how-Transfer 3 Tage on Site in Ranshofen bei Braunau sind notwendig Erfahrung im Data Center BetriebFundierte VM-ErfahrungGute Azure-KenntnissePraxiswissen zu M365 und klassischer Infrastruktur Langfristiges Projekt mit Aussicht auf ProjektverlängerungAbwechslungsreiche Tätigkeit in einem renommierten UnternehmenHerausfordernde Projektinhalte Ihr Kontakt Referenznummer 864750/1 Kontakt aufnehmen Telefon:+43 1 5353443 0 E-Mail: positionen@hays.at Anstellungsart Freiberuflich für ein Projekt
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
B. mit ETL-Pipelines, Actor-Model-Systemen (Akka/Pekko), Category-Theory-basierten Systemen oder Map-Reduce-Frameworks Praxiserfahrung mit Apache Spark (prioritär) oder vergleichbaren Technologien wie Apache Flink, Hadoop, Kafka Streams oder Cats / Cats Effect Sehr gutes Verständnis von Runtime-Systemen, Execution Contexts und funktionalen Programmierprinzipien Kenntnisse der Ausführungsmodelle (kompiliert, JIT und interpretiert) Sehr gute Programmierkenntnisse in Python sowie zusätzlich in Scala/Java, C/C++ oder Rust Erfahrung in Projektumgebungen (Planung, Koordination und Tracking technischer Aufgaben) Erfahrung in der Zusammenarbeit in Teams, inkl. Abstimmung von Aufgaben und Informationsaustausch über verschiedene Rollen hinweg Verhandlungssicher in Deutsch und Englisch Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ihr Kontakt Ansprechpartner Maximilian Nikolaus Miedtke Referenznummer 864683/1 Kontakt aufnehmen E-Mail: maximilian.miedtke@hays.ch Anstellungsart Freiberuflich für ein Projekt
H. von bis zu 100,- € pro Kind (max. 200,- €)Monatlicher Zuschuss in Höhe von 30€ für dein ÖPNV-AboFlexible Arbeitszeiten, Gleitzeit und mobiles ArbeitenVergünstigte Mitgliedschaft bei Urban SportsKostenlose Sprachenlernkurse mit BabbelBike-LeasingZahlreiche Angebote über Benefits.meIndividuelle TeameventsGetränke, Obst sowie Verpflegungszuschuss an den StandortenAbwechslungsreiche Aufgaben und Raum für EigeninitiativeAusgeprägte Entscheidungsfreude und offene FehlerkulturAuthentisches, motiviertes und begeistertes Team mit positivem MindsetVertrauensvolle Zusammenarbeit über alle Abteilungen und Hierarchieebenen So kommst du in unser TEAM: Bitte richte deine Bewerbung an Lisa-Marie (HR Generalist / Personalentwicklerin).
B. mit ETL-Pipelines, Actor-Model-Systemen (Akka/Pekko), Category-Theory-basierten Systemen oder Map-Reduce-Frameworks Praxiserfahrung mit Apache Spark (prioritär) oder vergleichbaren Technologien wie Apache Flink, Hadoop, Kafka Streams oder Cats / Cats EffectSehr gutes Verständnis von Runtime-Systemen, Execution Contexts und funktionalen ProgrammierprinzipienKenntnisse der Ausführungsmodelle (kompiliert, JIT und interpretiert)Sehr gute Programmierkenntnisse in Python sowie zusätzlich in Scala/Java, C/C++ oder RustErfahrung in Projektumgebungen (Planung, Koordination und Tracking technischer Aufgaben)Erfahrung in der Zusammenarbeit in Teams, inkl. Abstimmung von Aufgaben und Informationsaustausch über verschiedene Rollen hinwegVerhandlungssicher in Deutsch und Englisch Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ihr Kontakt Ansprechpartner Maximilian Nikolaus Miedtke Referenznummer 864683/1 Kontakt aufnehmen E-Mail: maximilian.miedtke@hays.ch Anstellungsart Freiberuflich für ein Projekt
Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.